Logo

Analisi dei dati per la psicologia

Appunti utili

Author

Antonio Di Mauro

Indici di Statistica Inferenziale

Tabella degli indici statistici inferenziali
Nome Simbolo Formula Descrizione Interpretazione Utilizzo
Eta quadrato \(\eta^2\) \(\frac{SS_{\text{effetto}}}{SS_{\text{totale}}}\) Quota di varianza spiegata da un effetto 0.01 = piccolo, 0.06 = medio, 0.14+ = grande ANOVA, ANCOVA
R quadrato \(R^2\) \(1 - \frac{SS_{\text{residuo}}}{SS_{\text{totale}}}\) Varianza spiegata dal modello 0–1; più alto è meglio Regressione lineare
Correlazione \(r\) \(\frac{\text{cov}(X,Y)}{\sigma_X \sigma_Y}\) Relazione lineare tra due variabili -1 a +1 Analisi bivariata
Cohen’s d \(d\) \(\frac{\bar{x}_1 - \bar{x}_2}{s_p}\) Differenza standardizzata tra due medie 0.2 = piccolo, 0.5 = medio, 0.8+ = grande Test t, esperimenti
Test t \(t\) \(\frac{\bar{x}_1 - \bar{x}_2}{SE}\) Confronto tra due medie Valori alti → significativi Inferenza su medie
Test F \(F\) \(\frac{MS_{\text{modello}}}{MS_{\text{errore}}}\) Confronta varianze spiegate vs. non spiegate >1 e p < .05 → effetto significativo ANOVA, regressione
AIC AIC \(2k - 2\ln(L)\) Bilancia adattamento e complessità Più basso = migliore Scelta tra modelli
BIC BIC \(\ln(n)k - 2\ln(L)\) Come AIC ma più penalizzante Più basso = preferito Modelli complessi
LOO-CV LOO Media log-verosimiglianze lasciando fuori 1 osservazione Validazione predittiva modello Più alto = migliore Bayes, modelli predittivi
Z-score \(z\) \(\frac{x - \mu}{\sigma}\) Distanza standardizzata da media |z| > 1.96 → significativo Standardizzazione, normalità
p-value \(p\) - Probabilità di osservare un dato sotto \(H_0\) p < 0.05 → significativo Ogni test d’ipotesi
Alpha \(\alpha\) - Soglia di significatività Tipicamente 0.05 Decisione inferenziale
Bayes Factor \(BF_{10}\) \(\frac{P(D \mid M_1)}{P(D \mid M_0)}\) Supporto relativo per \(H_1\) contro \(H_0\) >1 = favorevole a \(H_1\) Statistica bayesiana
Deviance - \(-2(\log L_{\text{modello}} - \log L_{\text{saturo}})\) Misura bontà del fit nei GLM Più basso = meglio GLM, logistica, Poisson
WAIC WAIC Somma penalizzata di log-verosimiglianze Criterio bayesiano di selezione modelli Più basso = migliore Bayes
ICC ICC \(\frac{\sigma^2_{tra}}{\sigma^2_{tra} + \sigma^2_{intra}}\) Affidabilità intra-classe 0–1; alto = coerente Psicometria, modelli misti

Distribuzione Normale

Proprietà della normale
Proprietà Dettaglio
Simmetria Simmetrica rispetto alla media \(\mu\)
Unimodale Ha un solo picco (moda = media = mediana)
Asintotica Le code si avvicinano all’asse x ma non lo toccano mai
Area totale sotto la curva 1
Percentili importanti 68% dei dati entro 1σ, 95% entro 2σ, 99.7% entro 3σ (regola empirica)

Distribuzione t di Student

Proprietà della t di Student
Proprietà Dettaglio
Simmetrica È centrata su 0, come la normale
Code più pesanti Maggiore probabilità di valori estremi rispetto alla normale
Dipende da \(df = n-1\) \(df=n−1\) Gradi di libertà, variano con la dimensione del campione
Converge alla normale Per \(( n \to \infty )\), la distribuzione t diventa una normale standard
Varianza non definita per \(df \leq 2\)

Distribuzione F di Fisher

Proprietà della F di Fisher
Proprietà Dettaglio
Dominio Solo valori positivi: \(F ∈ [0, +∞)\)
Asimmetrica Ha una coda destra lunga, soprattutto per piccoli d.f.
Dipende da due d.f. Numeratore \(d_1\), denominatore \(d_2\)
Media \(\frac{d_2} {d_2 - 2}\), se \(d_2 > 2\)
Moda \(\frac {(d_1 - 2) d_2}{d_1 (d_2 + 2)}\), se \(d_1 > 2\)
Varianza Formula complessa; esiste solo per \(d_2 > 4\)
Non simmetrica Spostata a destra; con d.f. grandi tende alla distribuzione normale

Distribuzione Chi-quadrato

Proprietà della Chisq
Proprietà Dettaglio
Dominio Solo valori positivi: \(\chi^2 \in [0, +\infty)\)
Asimmetrica Distribuzione asimmetrica a destra, più simmetrica all’aumentare dei gradi di libertà
Dipende da d.f. Unico parametro: gradi di libertà \(k\)
Media \(\mu = k\)
Varianza \(\sigma^2 = 2k\)
Moda \(k - 2\), se \(k \geq 2\)
Simmetria Per \(k > 30\) tende alla normale: \(\mathcal{N}(k, 2k)\)
Somma di quadrati \(\chi^2 = \sum_{i=1}^{k} Z_i^2\), con \(Z_i \sim \mathcal{N}(0, 1)\)

Assunti del modello di regressione

Come tutti i modelli statistici, anche quello di regressione lineare si basa su una serie di assunti che devono essere rispettati ovvero:

  • Indipendenza dei predittori dall’errore. Le X sono misurate senza errore. Tale assunto è evidente nei disegni sperimentali in cui i valori dei predittori sono sotto il diretto controllo dello sperimentatore. Nel resto dei casi i valori delle X sono ottenuti come risultato di un campionamento, pertanto questa assunzione implica che i predittori e gli errori siano indipendenti nella popolazione da cui vengono estratti.

  • Indipendenza delle osservazioni. Tutte le coppie di errori \(\varepsilon i\) ed \(\varepsilon j\) sono tra loro indipendenti per ogni \(i = j\). Detto in altri termini significa semplicemente che le osservazioni sono state campionate in modo indipendente l’una dall’altra.

  • Linearità. Il valore atteso dell’errore per un dato valore di X2 è zero: \(E(\varepsilon i) = E(\varepsilon|xi) = 0\). In pratica significa che il valore atteso della variabile dipendente, \(E(Y)\), è una funzione lineare del predittore.

  • Normalità. Gli errori sono distribuiti normalmente: \(\varepsilon i ∼ N(0,σ2)\). Questo implica che anche la distribuzione di yi sia normale con media pari a \(\beta0 + \beta xi\).

  • Varianza costante. La varianza degli errori è costante per qualunque valore di X : \(V(\varepsilon|xi) = σ2\). Anche in questo caso la varianza costante negli errori implica valori costanti anche della variabile Y per ciascun valore dato di X.

Interpretazione test parametrici

Test Tipo di Dato Assunti Verifica Assunti Interpretazione (p-value)
t-test indipendenti Continua Normalità, omogeneità varianze, indipendenza Shapiro-Wilk, Levene p < 0.05: differenza tra gruppi
t-test appaiati Continua (paired) Normalità delle differenze Shapiro-Wilk su differenze p < 0.05: differenza tra condizioni
ANOVA a una via Continua + gruppi Normalità, omogeneità varianze, indipendenza Shapiro-Wilk, Levene, Bartlett p < 0.05: almeno un gruppo differente
ANOVA a due vie Continua + 2 fattori Come sopra + assenza di interazioni spurie Verifica grafica, Levene, Bartlett p < 0.05: effetti principali/interazione significativi
MANOVA Continua multivariata Multinormalità, omogeneità covarianze, assenza multicollinearità Box’s M, grafici, Bartlett p < 0.05: almeno una differenza multivariata tra i gruppi
Regressione lineare semplice Continua Linearità, normalità residui, omoscedasticità, indipendenza residui Q-Q plot, Breusch-Pagan, Durbin-Watson, scatter plot p < 0.05: predittore significativo
Regressione multipla Continua Idem sopra + no multicollinearità VIF, Condition Index p < 0.05: almeno un predittore è significativo
Test F per varianze Continua Normalità, indipendenza Shapiro-Wilk, disegno p < 0.05: varianze significativamente diverse
Z-test Continua, n > 30 Conoscenza σ pop, normalità (o n grande) Controllo teorico p < 0.05: differenza tra media campione e popolazione

Interpretazione test NON parametrici

Test Tipo di Dato Assunti Verifica Assunti Interpretazione (p-value)
Mann-Whitney U Ordinale o continua non normale Forma simile distribuzioni, indipendenza Boxplot, istogrammi p < 0.05: distribuzioni significativamente diverse
Wilcoxon signed-rank Paired non normali Simmetria differenze, osservazioni appaiate Boxplot delle differenze p < 0.05: differenza significativa tra condizioni
Kruskal-Wallis Ordinale / continua Forma simile, indipendenza Istogrammi, boxplot p < 0.05: almeno un gruppo differente
Friedman test Misure ripetute ordinali Osservazioni appaiate Disegno sperimentale p < 0.05: almeno una condizione differente
Spearman’s rho Ordinale o continua Relazione monotona, indipendenza Scatterplot, test monotonia p < 0.05: correlazione significativa
Kendall’s tau Ordinale, piccoli campioni Relazione monotona, indipendenza Scatterplot, test monotonia p < 0.05: correlazione significativa
Chi-quadro (indipendenza) Categoriale Frequenze attese ≥ 5, indipendenza Tabella contingenza, conteggi p < 0.05: associazione significativa
Test esatto di Fisher Categoriale, n piccolo Frequenze molto basse, 2x2 Tabella contingenza p < 0.05: associazione significativa
McNemar Categoriale paired Osservazioni appaiate Tabella 2x2, differenze discordanti p < 0.05: cambiamento significativo pre/post

Interpretazione test per assunti

Test Assunto Uso Interpretazione (p-value)
Shapiro-Wilk / Kolmogorov Normalità Normalità delle variabili o residui p < 0.05: dati NON normali
Levene / Bartlett Omogeneità varianze Test ANOVA, t-test indipendenti p < 0.05: varianze NON omogenee
Mauchly Sfericità Misure ripetute p < 0.05: sfericità VIOLATA
Breusch-Pagan / White Omoscedasticità residui Regressione p < 0.05: eteroscedasticità presente
Durbin-Watson Indipendenza residui Serie temporali / regressione ≠ 2: autocorrelazione presente
VIF / Tolerance Multicollinearità Regressione multipla VIF > 10: multicollinearità problematicamente alta

Schema decisionale: tipo di effetti casuali vs grafico atteso

🔹 Formula del modello: y ~ x + ( ? | gruppo )

Specifica nella formula Intercette variabili? Pendenze variabili? Tipo di grafico
(1 | gruppo) ✅ Sì ❌ No Intercette variabili
(0 + x | gruppo) ❌ No ✅ Sì Solo pendenze variabili (senza shift)
(1 + x | gruppo) ✅ Sì ✅ Sì Intercette e pendenze variabili
(1 | gruppo) + (0 + x | gruppo) ✅ Sì ✅ Sì Intercette e pendenze variabili (specificati separatamente)
(x | gruppo) ✅ Sì ✅ Sì ✔️ Sintassi abbreviata per (1 + x | gruppo)

Nota bene

  • Se pendenze variabili sono presenti → le linee nei grafici hanno inclinazioni diverse per ciascun gruppo.
  • Se solo intercette variano → tutte le linee hanno stessa inclinazione, ma partono da livelli diversi.

Lettura output

Matrice PSI (Ψ) - effetti casuali

            (Intercept)        x1        x2
(Intercept)   0.9498837 0.4361065 0.5251706
x1            0.4361065 1.0694328 0.2938505
x2            0.5251706 0.2938505 1.3890082
  • 🔍 Interpreta la matrice

Diagonale (verso sinistra) - varianze (quanto variano gli effetti casuali per intercetta, x1, x2)

Fuori diagonale - covarianze (come variano insieme gli effetti nei gruppi)

Regressione lineare


Call:
lm(formula = weight ~ height, data = dati)

Residuals:
    Min      1Q  Median      3Q     Max 
-8.5830 -3.0758 -0.3937  2.6129 14.8068 

Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept) -21.7935     8.2313  -2.648  0.00945 ** 
height        0.9634     0.0481  20.031  < 2e-16 ***
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Residual standard error: 4.368 on 98 degrees of freedom
Multiple R-squared:  0.8037,    Adjusted R-squared:  0.8017 
F-statistic: 401.2 on 1 and 98 DF,  p-value: < 2.2e-16

🧾 Interpretazione dell’Output

  • Call: Specifica la formula usata: weight ~ height.
  • Residui: Differenze tra i valori osservati e quelli stimati. Distribuiti idealmente attorno a 0.
  • Coefficienti:
    • Intercept: valore teorico del peso quando l’altezza è zero (non realistico, ma serve al modello).
    • Height: effetto medio dell’altezza sul peso (es. +0.987 kg per ogni cm in più).
  • Errore standard residuo: misura la dispersione dei residui. Più basso = stime più precise.
  • R² / Adjusted R²: percentuale di variabilità spiegata dal modello (con e senza correzione).
  • F-statistic: test globale di significatività del modello. Se p-value è basso → modello significativo.

Regressione lineare - effetti fissi/random

Linear mixed model fit by REML ['lmerMod']
Formula: mpg ~ hp + (1 + hp | cyl)
   Data: mtcars

REML criterion at convergence: 170.9

Scaled residuals: 
     Min       1Q   Median       3Q      Max 
-1.65419 -0.63457 -0.03825  0.48872  2.15522 

Random effects:
 Groups   Name        Variance  Std.Dev. Corr 
 cyl      (Intercept) 27.571143 5.25082       
          hp           0.000613 0.02476  -1.00
 Residual              9.401205 3.06614       
Number of obs: 32, groups:  cyl, 3

Fixed effects:
            Estimate Std. Error t value
(Intercept) 26.63970    3.39879   7.838
hp          -0.05354    0.01680  -3.186

Correlation of Fixed Effects:
   (Intr)
hp -0.975
optimizer (nloptwrap) convergence code: 0 (OK)
boundary (singular) fit: see help('isSingular')

🧾 Interpretazione dell’Output

🔹 Effetti fissi (Fixed effects)

  • (Intercept): 30.74
    Questo valore rappresenta la stima del consumo medio di carburante (mpg) quando i cavalli (hp) sono pari a 0. Naturalmente, non è realistico avere 0 cavalli, ma questo valore serve come punto di riferimento nel modello.

  • hp: -0.068
    In media, all’aumentare di 1 unità nei cavalli (hp), ci si aspetta una diminuzione di 0.068 miglia per gallone nel consumo (mpg), tenendo conto delle variazioni tra gruppi (cyl).


🔹 Effetti casuali (Random effects)

  • Il termine (1 + hp | cyl) specifica che sia l’intercetta che il coefficiente di hp variano tra i gruppi definiti da numero di cilindri (cyl).

  • Varianza dell’intercetta:
    Indica che esiste una forte variabilità nel livello medio di mpg tra i gruppi di cilindrata.

  • Varianza della pendenza di hp:
    Significa che l’effetto di hp su mpg cambia leggermente tra i gruppi, ma la variabilità è più contenuta rispetto all’intercetta.

  • Correlazione intercetta-pendenza:
    Gruppi con valori medi più alti di mpg tendono anche ad avere pendenze più “piatte” (meno negative), suggerendo una relazione positiva tra intercetta e pendenza.


🔹 Errore residuo (Residual variance)

  • Varianza residua:
    Rappresenta la variabilità nei valori di mpg non spiegata né dagli effetti fissi né da quelli casuali. Questo è l’errore “interno” al gruppo.

Analisi della varianza

            Df Sum Sq Mean Sq F value   Pr(>F)    
group        2   1720   860.3   31.37 5.53e-11 ***
Residuals   87   2386    27.4                     
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

🧾 Interpretazione dell’Output

  • Obiettivo: verificare se almeno un gruppo ha una media significativamente diversa.
  • Formula: values ~ group confronta le medie dei gruppi A, B e C.
  • Gradi di libertà (DF):
    • Tra gruppi: k - 1 → 3 − 1 = 2
    • Entro gruppi (residuali): n - k → 90 − 3 = 87
  • Somma dei quadrati (Sum Sq):
    • Between Groups: variabilità spiegata dalle differenze tra le medie
    • Residuals: variabilità interna ai gruppi
  • Media dei quadrati (Mean Sq): Sum Sq / DF
  • F-value: rapporto tra varianza spiegata e residua
  • Pr(>F):
    • Se < 0.05 → almeno un gruppo ha media significativamente diversa
    • Se > 0.05 → nessuna differenza significativa

Confronto tra modelli (AIC)

Global model call: lm(formula = mpg ~ wt + hp + qsec + drat, data = mtcars)
---
Model selection table 
   (Intrc)  drat       hp    qsec     wt df   logLik   AIC delta weight
11  37.230       -0.03177         -3.878  4  -74.326 156.7  0.00  0.181
14  11.390 1.656           0.9462 -4.398  5  -73.352 156.7  0.05  0.176
13  19.750                 0.9292 -5.048  4  -74.360 156.7  0.07  0.175
12  29.390 1.615 -0.03223         -3.228  5  -73.366 156.7  0.08  0.174
16  19.260 1.657 -0.01784  0.5275 -3.708  6  -72.509 157.0  0.36  0.151
15  27.610       -0.01782  0.5108 -4.359  5  -73.571 157.1  0.49  0.141
9   37.290                        -5.344  3  -80.015 166.0  9.38  0.002
10  30.290 1.442                  -4.783  4  -79.484 167.0 10.32  0.001
4   10.790 4.698 -0.05179                 4  -80.752 169.5 12.85  0.000
8   17.740 4.429 -0.05797 -0.2841         5  -80.561 171.1 14.47  0.000
7   48.320       -0.08459 -0.8866         4  -86.170 180.3 23.69  0.000
3   30.100       -0.06823                 3  -87.619 181.2 24.59  0.000
6  -27.840 7.309           1.2130         4  -88.026 184.1 27.40  0.000
2   -7.525 7.678                          3  -92.400 190.8 34.15  0.000
5   -5.114                 1.4120         3  -99.294 204.6 47.94  0.000
1   20.090                                2 -102.378 208.8 52.10  0.000
Models ranked by AIC(x) 

🧾 Interpretazione dell’Output

  • Obiettivo: confrontare tutti i sottoinsiemi possibili del modello globale per identificare il modello più parsimonioso secondo il criterio AIC.
  • Colonne principali:
    • Int, wt, hp, qsec, drat: indicano la presenza (+) o assenza di ciascun termine nel modello.
    • df: numero di parametri stimati nel modello.
    • logLik: log-likelihood del modello.
    • AIC: criterio di informazione di Akaike; valori più bassi indicano modelli migliori.
    • delta: differenza tra l’AIC del modello corrente e il minimo AIC tra tutti i modelli.
    • weight: peso di Akaike, rappresenta la probabilità relativa che il modello sia il migliore tra quelli considerati.
  • Interpretazione dei risultati:
    • Il modello con delta = 0 è il migliore secondo l’AIC.
    • Modelli con delta < 2 hanno un supporto sostanziale e possono essere considerati competitivi.
    • I pesi di Akaike (weight) possono essere utilizzati per il model averaging o per valutare l’evidenza relativa a favore di ciascun modello.

Confronto tra modelli (LOO)

              model    looic se_looic  elpd_diff   se_diff
mod2       mod1: x1 388.6006 12.73663  0.0000000 0.0000000
mod3    mod2: x1+x2 378.9653 13.38565 -0.9298536 0.5735233
mod1 mod3: x1+x2+x3 380.8250 13.39839 -4.8176874 3.4359110

🧾 Interpretazione dell’Output

Significato degli indici riportati:

  • looic (Leave-One-Out Information Criterion): misura la bontà predittiva del modello. Valori più bassi indicano migliore performance predittiva.
  • se_looic: è l’errore standard associato a looic. Indica l’incertezza nella stima di looic.
  • elpd_diff (expected log predictive density difference): differenza della capacità predittiva di ciascun modello rispetto al migliore (quello con elpd_diff = 0). Valori negativi indicano prestazioni inferiori.
  • se_diff: errore standard associato a elpd_diff. Serve per valutare la significatività della differenza: se elpd_diff è maggiore di 2×se_diff, la differenza è considerata sostanziale.

Risultati nel confronto tra modelli:

  • Il modello mod2: x1 + x2 ha il valore di looic più basso, quindi è il miglior modello predittivo tra quelli considerati.
  • Il modello mod1: x1 ha elpd_diff = -12.2 e se_diff = 4.3, quindi è significativamente peggiore di mod2 (la differenza supera 2 volte l’errore standard).
  • Il modello mod3: x1 + x2 + x3 ha elpd_diff = -0.8 e se_diff = 0.9, una differenza non significativa rispetto a mod2. Aggiungere la variabile x3 non migliora in modo rilevante la predizione.

In sintesi, mod2 è il miglior compromesso tra semplicità e accuratezza predittiva.

Chisq Test per modelli annidati

Data: sleepstudy
Models:
m1: Reaction ~ 1 + (1 | Subject)
m2: Reaction ~ Days + (1 | Subject)
m3: Reaction ~ Days + I(Days^2) + (1 | Subject)
m4: Reaction ~ Days + I(Days^2) + I(Days^3) + (1 | Subject)
m5: Reaction ~ Days + I(Days^2) + I(Days^3) + I(Days^4) + (1 | Subject)
   npar    AIC    BIC  logLik deviance    Chisq Df Pr(>Chisq)    
m1    3 1916.5 1926.1 -955.27   1910.5                           
m2    4 1802.1 1814.8 -897.04   1794.1 116.4624  1     <2e-16 ***
m3    5 1802.9 1818.9 -896.47   1792.9   1.1349  1     0.2867    
m4    6 1804.9 1824.1 -896.47   1792.9   0.0094  1     0.9226    
m5    7 1806.3 1828.6 -896.14   1792.3   0.6599  1     0.4166    
---
Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

🧾 Interpretazione dell’Output

  • Sono stati confrontati 5 modelli misti annidati:
    • Tutti includono un termine casuale per il soggetto ((1 | Subject)).
    • Ogni modello aggiunge progressivamente effetti fissi: Days, Days^2, ecc.
  • La tabella mostra:
    • AIC, BIC: criteri di bontà del modello; valori più bassi sono migliori.
    • logLik: log-verosimiglianza del modello.
    • Chisq: statistica del test del rapporto di verosimiglianza (LRT).
    • Df diff: differenza nei gradi di libertà tra i modelli.
    • Pr(>Chisq): p-value del test LRT.
  • Se il p-value < 0.05 → l’aggiunta della nuova variabile migliora significativamente il modello.
  • È importante usare REML = FALSE per confronti validi tra modelli con effetti fissi diversi.
  • L’ultimo modello con miglioramento significativo e AIC basso può essere selezionato come finale.

Studio di potenza


     Two Sample Cohen's d 

      data.name = Ym and Yf
      statistic = 0.8856
         effect = large

🧾 Interpretazione dell’Output

  • Statistic: d = 0.8856

  • Interpretazione: Effetto grande secondo le soglie di Cohen:

    • piccolo: ~ 0.2
    • medio: ~ 0.5
    • grande: ~ 0.8

Questo significa che la differenza media tra i gruppi Ym e Yf è ampia rispetto alla variabilità complessiva.
L’effetto è sufficientemente forte da essere considerato rilevante

Errori di tipo M o S


    Design Analysis

Hypothesized effect:  cohen_d = 0.4 

Study characteristics:
   test_method   sample_n1   sample_n2   alternative   sig_level   df
   two_sample    8           8           greater       0.05        14

Inferential risks:
   power   typeM   typeS
   0.182   2.887   0    

Critical value(s): cohen_d  =  0.881

🧾 Interpretazione dell’Output

  • Potenza: 0.182
    Il test ha solo il 18.2% di probabilità di rilevare un effetto vero di d = 0.4 se esiste.
    Questo valore è molto inferiore al livello desiderato di 0.80, indicando un alto rischio di falso negativo (errore di tipo II).

  • Errore di tipo M (Magnitude): 2.887
    Se ottieni un risultato significativo, è probabile che l’effetto stimato sarà quasi 3 volte più grande di quello reale.
    Questo riflette un rischio molto elevato di sovrastimare l’effetto in caso di significatività.

  • Errore di tipo S (Sign): 0
    Il rischio che l’effetto significativo abbia segno opposto rispetto a quello reale è nullo.
    Questo è possibile perché il test è unilaterale (“greater”), quindi non considera effetti nel verso opposto.

  • Valore critico di d: 0.881
    Perché il risultato sia significativo a p < 0.05, l’effetto osservato dovrà essere ≥ 0.881.
    Questo è più del doppio dell’effetto ipotizzato, il che rende difficile ottenere significatività con questo disegno.

📌 Conclusione:
Il disegno attuale (n = 8 per gruppo) è sottodimensionato per rilevare un effetto di d = 0.4 con adeguata potenza.
Sono raccomandati campioni più grandi per ridurre il rischio di errore tipo M e aumentare la potenza.

Bayes Factor Analysis

Bayes factor analysis
--------------
[1] wt + hp : 17.27075 ±0.01%

Against denominator:
  mpg ~ wt 
---
Bayes factor type: BFlinearModel, JZS

🧾 Interpretazione dell’Output

  • Sono stati confrontati due modelli:
    • BF1: mpg ~ wt
    • BF2: mpg ~ wt + hp
  • Il Bayes Factor (BF) confronta direttamente la probabilità dei dati sotto i due modelli.
  • Valore calcolato: BF2 / BF1
    • Se BF > 1 → i dati supportano di più il secondo modello.
    • Se BF < 1 → i dati supportano di più il primo modello.
  • Interpretazione standard del BF:
    • 1–3: evidenza debole
    • 3–10: evidenza moderata
    • (>10): evidenza forte a favore del modello al numeratore
  • Il BF è una misura continua della forza di evidenza, a differenza del p-value che si basa su soglie arbitrarie.

Log Relative Evidence tra modelli (Bayes Factor)

🧾 Interpretazione dell’Output

  • Ogni cella della heatmap rappresenta il logaritmo del Bayes Factor tra due modelli specifici.
  • Il colore indica la forza dell’evidenza:
    • Rosso: evidenza a favore del modello sulla riga rispetto a quello sulla colonna.
    • Blu: evidenza a favore del modello sulla colonna rispetto a quello sulla riga.
    • Bianco: evidenza neutra o trascurabile.
  • La scala dei colori è limitata tra -3 e 3 per facilitare l’interpretazione visiva.
  • Questo tipo di visualizzazione consente un confronto diretto e intuitivo tra tutti i modelli considerati.

Interpretazione SEM - path Diagram

Interpretazione e schema decisionale per il conteggio dei parametri in un modello SEM

Il diagramma SEM visualizzato rappresenta una struttura di relazioni tra variabili latenti, variabili osservate, e le associazioni tra di esse. È possibile utilizzare il diagramma per stimare il numero totale di parametri del modello sulla base della tipologia e direzione delle frecce, nonché della presenza di varianze e covarianze.

📌 Categorie principali di parametri da contare

  1. Carichi fattoriali (Loadings)
    • Frecce direzionali da fattori latenti → variabili osservate
    • Numero: 1 parametro per ciascuna freccia
  2. Regressioni strutturali (Path coefficients)
    • Frecce direzionali tra variabili latenti o da manifesti a latenti
    • Numero: 1 parametro per ciascuna freccia
  3. Varianze
    • Rappresentate da semicerchi che si collegano a una singola variabile
    • Ogni variabile latente e ogni variabile manifestata ha una varianza stimata
    • Numero: 1 parametro per variabile
  4. Covarianze
    • Rappresentate da frecce curve tra due variabili senza direzione causale (↔︎)
    • Spesso tra variabili latenti o tra errori di misura
    • Numero: 1 parametro per ciascuna coppia correlata

Tipologie di variabili

Tipo di variabile Caratteristiche Esempi
Esogena Non è spiegata da altre variabili nel modello Età, Sesso, Condizione sperimentale
Endogena È spiegata da almeno una variabile nel modello Depressione, Stress, Prestazione

Dal grafo SEM: come riconoscerle?

  • Freccia in entrata (→) = variabile endogena
  • Solo frecce in uscita = variabile esogena
  • Le variabili latenti possono essere endogene o esogene a seconda del modello